دوشنبه ۳ شهریور ۱۴۰۴ - ۱۳:۲۳
حکمرانی شناختی؛ ابعاد و چارچوب‌ها

حکمرانی شناختی یک پارادایم نوظهور در عصر دیجیتال است. این مفهوم به استفاده هدفمند و راهبردی از فناوری‌های مبتنی بر علوم شناختی، مانند هوش مصنوعی، پردازش داده‌های کلان و حتی مهندسی اجتماعی، برای اثرگذاری و هدایت رفتار شهروندان اشاره دارد.

به گزارش خبرنگار خبرگزاری حوزه،این روزها با رواج بحث از هوش مصنوعی و ریشه‌های تحلیلی آن در علوم شناختی، اصطلاح «حکمرانی شناختی» نیز مطرح می شود. در این باره با دکتر محمد رضا قاسمی، پژوهشگر حوزه هوش مصنوعی و علوم شناختی و عضو شورای هوش مصنوعی حوزه های علمیه به گفتگو نشستیم.

در آغاز بحث، لطفاً برای مخاطبان ما توضیح دهید حکمرانی شناختی دقیقاً به چه معناست؟

حکمرانی شناختی یک پارادایم نوظهور در عصر دیجیتال است. این مفهوم به استفاده هدفمند و راهبردی از فناوری‌های مبتنی بر علوم شناختی، مانند هوش مصنوعی، پردازش داده‌های کلان و حتی مهندسی اجتماعی، برای اثرگذاری و هدایت رفتار شهروندان اشاره دارد. در اصطلاح فنی، می‌توان آن را حکمرانی متکی بر الگوریتم‌های یادگیری عمیق (Deep Learning Models)، پردازش کلان‌داده‌های رفتاری (Behavioral Big Data Analytics) و مهندسی روان‌جمعی (Psycho-Social Engineering) دانست.

به بیان ساده، حکومت‌ها با تحلیل عمیق داده‌های رفتاری و روان‌شناختی انسان‌ها می‌توانند محیط‌ها، قوانین و محرکهایی طراحی کنند که افراد به‌طور نامحسوس به سمت تصمیم‌ها و رفتارهای مطلوب سوق داده شوند. به عبارت دیگر می‌توان حکمرانی شناختی را یک ابزار مدیریتی مدرن دانست که نوعی کنترل نامرئی بر ذهن و رفتار انسان‌ها دارد. چرا که هوش مصنوعی فرصتی پدید آورده است تا بتوان کوچکترین جزئیات رفتار و حتی واکنش‌های ناخودآگاه انسان‌ها را تحلیل کرد. در حکمرانی شناختی دیگر نیازی به اجبار یا سرکوب مستقیم رفتارها نیست، بلکه محیط‌ها و قوانین طوری طراحی می‌شوند که شما بدون آن‌که بفهمید، همان تصمیمی را بگیرید که از پیش برایتان تعیین شده است. این همان جایی است که اختیار انسان‌ها زیر سؤال قرار می‌گیرد.

پس آیا می‌توان این پدیده را با عباراتی چون «مهندسی اجتماع» یا «قدرت نرم پیشرفته» توصیف کرد؟

درست است. تفاوت اصلی حکمرانی شناختی با اشکال سنتی حکمرانی در همین «نامحسوس بودن» (Invisible Consent Engineering) آن است. اگر در گذشته حکومت‌ها بیشتر از ابزارهای آشکار قدرت سخت استفاده می‌کردند، امروز داده‌ها و الگوریتم‌ها اجازه می‌دهند تا نوعی از رهبری و کنترل شکل بگیرد که شهروندان کمتر آن را به‌طور مستقیم حس کنند. زیرا الگوریتم‌ها دقیقاً نقاط ضعف روانی تک تک افراد یک ملّت یا جامعه جهانی را هدف می‌گیرند و برای آن برنامه ارائه می‌دهند.

آیا این پدیده جنبه مثبت هم دارد و می‌توان از آن برای بهبود و ارتقای کارآمدی نیروهای جامعه استفاده کرد؟ آیا فرصت‌هایی برای دولت‌ها و جوامع ایجاد می‌کند؟

هر ابزار و فناوری نوپدیدی می‌تواند هم فرصت باشد و هم تهدید. این به نحوه کاربری و استفاده از آن دارد قطعاً حکمرانی شناختی هم می‌تواند فرصت‌ساز باشد؛ از کارآمدی بیشتر نظام تصمیم‌گیری گرفته تا بهینه‌سازی خدمات عمومی، مدیریت بهتر منابع و حتی پیش‌بینی بحران‌ها. تصور کنید که اگر الگوهای رفتاری شهروندان به‌خوبی تحلیل شود، می‌توان از بروز بسیاری از مشکلات اجتماعی، اقتصادی یا زیست‌محیطی پیشگیری کرد. یعنی این فناوری طوری به کار گرفته شود تا کمتر به شأن و منزلت انسان به‌عنوان موجودی مختار و دارای اراده و تفکر ضربه بزند و بیشتر جنبه پیشنهادی و توصیه‌ای پیدا کند. اگر به‌صورت کنترل شده و قانون‌مند مورد استفاده دولت‌ها قرار بگیرد و الگوریتم‌های آن افسارگسیخته نباشد.

بزرگ‌ترین نگرانی‌ها در این زمینه چیست و چرا باید نگران حکمرانی شناختی بود؟

تهدیدهای جدّی‌ای در بحث حکمرانی شناختی مطرح است که به مهم‌ترین آن‌ها اشاره کردم. نخستین نگرانی مربوط به شأن انسان، حقوق انسان و مراعات اختیار و آزادی‌های فردی اوست. نگرانی بعد نیز بحث حریم خصوصی است که عملاً با رشد فضای سایبر در معرض خطرات فراوانی قرار گرفته است. وقتی حکومت‌ها یا بدتر از آن شرکت‌های بزرگ ارائه‌دهنده خدمات سایبری توانایی رصد و تحلیل دقیق رفتارهای فردی و روان‌شناختی افراد را داشته باشند، امکان سوءاستفاده یا دستکاری آگاهانه تصمیمات شهروندان افزایش پیدا می‌کند. همین امروز هم شاهد هستیم که تبلیغات‌های بازرگانی در فضای مجازی به‌شدّت هدفمند شده‌اند و مردم بدون آن‌که متوجه باشند در معرض پروپاگاندایی هستند که نمی‌دانند دقیقاً شخص آن‌ها را هدف گرفته است. حتی اطلاعات و اخبار هم به‌نحوی شخصی‌سازی شده به دست افراد می‌رسد، ارتباطاتی که به آن‌ها پیشنهاد می‌شود، همه طوری تنظیم شده که فرد را به سمت و سویی خاصّ هدایت می‌کند. برای مثال می‌توان به این مطلب اشاره کرد که در عرصه مسائل سیاسی، وقتی یک فرد بیشتر اخبار یک حزب خاصّ یا یک جناح سیاسی خاصّ را مطالعه می‌کند، ناگهان مواجه می‌شود با این پدیده که تمام اطلاعات و اخباری که برای او نمایش داده می‌شود در مسیر همان جناح سیاسی‌ست. دستگاه شناختی انسان دچار خطا می‌شود و گمان می‌کند تمام فضای سایبر تحت سلطه همان جناح است و دچار تحلیل‌های اشتباه می‌گردد. این کمترین پدیده‌ای‌ست که همین الآن در حال روی دادن است.

این قابلیت توانسته نوعی نابرابری قدرت ایجاد کند، میان کسانی است که به داده و فناوری دسترسی دارند و کسانی که فاقد آن هستند. یعنی هر چه کاربران سامانه یک شرکت بیشتر باشند، حضور و قدرت سیاسی، فرهنگی و اقتصادی آن شرکت در ابعاد اجتماعی به طرز شگفت‌آوری بیشتر خواهد بود. شرکت‌ها معمولاً این توانایی خود را به سرمایه‌داران می‌فروشند، با پذیرش تبلیغات که این دیگر حقیقتاً برای آینده جهان نگران‌کننده است.

آینده حکمرانی شناختی را چطور می‌بینید؟ آیا امکان دارد روند رشد آن متوقف شود یا محدودیت‌هایی پیدا کند؟

واقعیت این است که حکمرانی شناختی در حال تبدیل شدن به ستون اصلی حکمرانی در عصر حاضر است که برخی آن را هژمونی الگوریتمی می‌نامند (Algorithmic Hegemony). این اتفاق تا حدّ زیادی افتاده است. اگر چارچوب‌های سخت‌گیرانه اخلاقی و قانونی توسط نهادهای قدرتمند دولتی ایجاد و عملیاتی نشود، ما به سمت جهانی می‌رویم که در آن اختیار و انتخاب‌های فردی توهمی بیش نیستند و نوعی بازطراحی ناخودآگاه اجتماعی (Deterministic Cognitive Infrastructures) در مقیاسی بی‌سابقه است. شرکت‌های بزرگ چندملیتی عملاً ذهن و روان انسان‌ها را خرید و فروش می‌کنند. انسان‌ها به ظاهر آزاد خواهند بود و گمان می‌کنند خودشان تصمیم می‌گیرند، اما در عمل تصمیماتشان از قبل برنامه‌ریزی شده و هوش مصنوعی این تصمیم را در ذهن آن‌ها کاشته است.

جامعه جهانی باید هم‌زمان با بهره‌گیری از فرصت‌های هوش مصنوعی، سازوکارهای اخلاقی و حقوقی محکمی برای حفظ کرامت انسانی، آزادی انتخاب و شفافیت عملکرد الگوریتم‌ها و سامانه‌های هوشمند ایجاد کند. تنها در این صورت می‌توانیم مطمئن باشیم که این ابزار قدرتمند به نفع همه انسان‌ها به‌کار گرفته می‌شود.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha